contents

인공지능(AI)은 일반적으로 인간의 지능이 필요한 작업을 수행할 수 있는 기계를 만드는 데 중점을 둔 광범위한 컴퓨터 과학 분야입니다. 최근 이 분야는 머신러닝이라는 강력한 하위 분야가 주도하고 있으며, 이는 딥러닝이라는 기술로 한층 더 강화되어 거대 언어 모델이라는 획기적인 기술로 이어졌습니다.


1. 인공지능 (AI): 큰 그림 🤖

AI는 기계를 똑똑하게 만드는 과학이라는 포괄적인 목표를 가집니다. 단순한 규칙 기반 시스템부터 오늘날 우리가 보는 복잡한 모델까지 모든 것을 포함합니다.

비유: AI를 "로봇 공학"이라는 전체 분야라고 생각해 보세요. 목표는 유능한 로봇을 만드는 것입니다. 명시적인 지침으로 프로그래밍하는 것부터 스스로 학습하게 하는 것까지, 이를 달성하는 방법은 다양합니다.

오늘날의 AI는 약인공지능(ANI) 으로 간주되며, 이는 특정 작업을 매우 잘 수행하도록 설계되었음을 의미합니다(예: 체스 두기, 영화 추천, 얼굴 인식). 많은 연구자들의 궁극적인 목표는 인간과 같은 인지 능력을 가진 기계인 범용인공지능(AGI) 이며, 이는 아직 미래의 과제로 남아 있습니다.


2. 머신러닝 (ML): 현대 AI의 엔진 🧠

머신러닝은 AI의 하위 집합입니다. 프로그래머가 작업에 대한 명시적인 단계별 규칙을 작성하는 대신, ML은 컴퓨터가 데이터를 분석하여 스스로 규칙을 학습하도록 하는 알고리즘을 만드는 것을 포함합니다.

비유: 아이에게 고양이를 알아보도록 가르칠 때 "뾰족한 귀, 네 개의 다리, 수염"과 같은 규칙을 설명하지 않습니다. 대신 아이가 패턴을 배울 때까지 고양이 사진을 많이 보여줍니다. ML도 같은 방식으로 작동합니다.

핵심 프로세스는 다음과 같습니다.

  1. 학습(Training): 모델에 대량의 데이터를 제공합니다.

  2. 학습(Learning): 모델은 데이터 내의 패턴과 관계를 찾기 위해 내부 매개변수를 조정합니다.

  3. 추론(Inference): 학습된 모델을 사용하여 새롭고 보지 못했던 데이터에 대한 예측이나 결정을 내립니다.

머신러닝에는 세 가지 주요 유형이 있습니다.


3. 딥러닝 (DL): 강력한 기술 🕸️

딥러닝은 여러 계층을 가진 인공 신경망(ANN) 이라는 기술을 사용하는 머신러닝의 전문 하위 분야입니다.

비유: 딥러닝은 인간의 뇌 구조에서 영감을 받았습니다. ANN은 계층으로 구성된 상호 연결된 "뉴런"으로 만들어집니다. 데이터를 입력하면 이 뉴런들은 서로 신호를 전달하고, 네트워크는 이러한 연결의 강도를 조정하여 "학습"합니다.


4. 생성형 AI 및 거대 언어 모델 (LLM): 최근의 혁명 🗣️

이는 딥러닝의 가장 최근이면서도 가장 영향력 있는 응용 분야입니다.

생성형 AI (Generative AI)

이전의 대부분의 ML은 판별형(discriminative) 이었습니다. 즉, 사물을 분류하거나 예측하도록 훈련되었습니다(예: "이 이미지는 고양이인가, 개인가?"). 생성형 AI는 다릅니다. 훈련된 데이터와 유사한 새로운 콘텐츠를 생성하도록 훈련됩니다(예: "스케이트보드를 타는 고양이 이미지를 생성해 줘").

거대 언어 모델 (Large Language Models, LLMs)

LLM은 특히 텍스트 데이터에 대해 훈련된 거대한 딥러닝 모델입니다. 주요 목표는 인간과 같은 언어를 이해하고 생성하는 것입니다. 예로는 구글의 제미나이(Gemini), OpenAI의 GPT 시리즈, 메타의 라마(Llama) 가 있습니다.

LLM의 작동 방식 (간단히):

  1. 학습: LLM은 인터넷에서 수집한 방대한 양의 텍스트와 코드로 학습합니다. 이는 온라인에 기록된 인류 지식의 상당 부분에 해당합니다.

  2. 핵심 과제: 가장 기본적인 수준에서 LLM은 정교한 다음 단어 예측 엔진입니다. 단어 시퀀스가 주어지면 가장 확률이 높은 다음 단어를 계산하는 것이 목표입니다.

    • 예: "고양이가 ... 위에 앉았다"를 주면 "매트", "바닥", "소파"에 대한 높은 확률을 계산합니다. 가장 가능성 있는 다음 단어를 반복적으로 선택함으로써 전체 문장, 단락, 기사를 생성할 수 있습니다.
  3. 트랜스포머 아키텍처 (The Transformer Architecture): 현대 LLM을 가능하게 한 핵심 혁신은 2017년 구글이 소개한 트랜스포머라는 아키텍처입니다. 그 강력함의 비결은 어텐션 메커니즘(attention mechanism) 입니다. 이를 통해 모델은 응답을 생성할 때 입력 텍스트의 여러 단어들이 서로 얼마나 멀리 떨어져 있는지에 관계없이 그 중요도에 가중치를 둘 수 있습니다. 이는 이전 모델의 주요 한계를 극복하여 LLM이 언어의 문맥과 장거리 의존성을 이해할 수 있게 했습니다.


최근 동향 및 미래 방향

이 분야는 놀라운 속도로 움직이고 있습니다. 현재 일어나고 있는 일과 앞으로 주목해야 할 점은 다음과 같습니다.

references